Aller au contenu principal
Fermer

Le gouverneur de Californie Gavin Newsom signe une loi exigeant des informations sur la sécurité de l'IA
information fournie par Reuters 30/09/2025 à 00:11

((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto))

(Ajoute des détails sur le projet de loi et son histoire dans les paragraphes 4-7, une citation d'Anthropic dans le paragraphe 8) par Jody Godoy

Le gouverneur de Californie, Gavin Newsom, a promulgué lundi une loi obligeant le développeur de ChatGPT, OpenAI, et d'autres grands acteurs à divulguer la manière dont ils prévoient d'atténuer les risques catastrophiques potentiels liés à leurs modèles d'IA de pointe. La Californie abrite des entreprises d'IA de premier plan, notamment OpenAI, Alphabet's GOOGL.O Google, Meta Platforms

META.O , Nvidia NVDA.O et Anthropic, et avec cette loi, elle cherche à prendre la tête de la réglementation d'un secteur essentiel pour son économie, a déclaré Gavin Newsom.

"La Californie a prouvé que nous pouvions établir des réglementations pour protéger nos communautés tout en veillant à ce que l'industrie croissante de l'IA continue de prospérer", a déclaré Gavin Newsom dans un communiqué de presse sur la loi. Le bureau de Gavin Newsom a déclaré que la loi, connue sous le nom de SB 53, comble un vide laissé par le Congrès américain, qui n'a pas encore adopté de législation générale sur l'IA, et fournit un modèle à suivre pour les États-Unis.

Si des normes fédérales sont mises en place, Gavin Newsom a déclaré que la législature de l'État devrait "veiller à s'aligner sur ces normes, tout en maintenant le niveau élevé établi par la loi SB 53". L'année dernière, Gavin Newsom a opposé son veto à la première tentative californienne de législation sur l'IA, qui s'était heurtée à une vive opposition de la part de l'industrie . Le projet de loi aurait obligé les entreprises qui ont dépensé plus de 100 millions de dollars pour leurs modèles d'IA à engager des auditeurs tiers chaque année pour examiner les évaluations des risques et aurait permis à l'État d'imposer des pénalités se chiffrant en centaines de millions de dollars. La nouvelle loi oblige les entreprises dont le chiffre d'affaires dépasse 500 millions de dollars à évaluer le risque que leur technologie de pointe échappe au contrôle humain ou contribue à la mise au point d'armes biologiques, et à divulguer ces évaluations au public. La loi prévoit des amendes pouvant aller jusqu'à un million de dollars par infraction.

Jack Clark, cofondateur de la société d'intelligence artificielle Anthropic, a qualifié la loi de "cadre solide qui concilie la sécurité publique et la poursuite de l'innovation".

Valeurs associées

245,6900 USD NASDAQ +0,32%
727,0500 USD NASDAQ +1,35%
188,8900 USD NASDAQ +0,88%

0 commentaire

Signaler le commentaire

Fermer

A lire aussi

Mes listes

Cette liste ne contient aucune valeur.
Chargement...